Text copied to clipboard!

Tytuł

Text copied to clipboard!

Inżynier Big Data

Opis

Text copied to clipboard!
Poszukujemy Inżyniera Big Data, który dołączy do naszego zespołu technologicznego i będzie odpowiedzialny za projektowanie, budowę oraz utrzymanie skalowalnych rozwiązań do przetwarzania dużych zbiorów danych. Idealny kandydat powinien posiadać doświadczenie w pracy z narzędziami Big Data, takimi jak Hadoop, Spark, Kafka oraz znać języki programowania takie jak Python, Scala lub Java. Jako Inżynier Big Data będziesz współpracować z zespołami analitycznymi, inżynierami danych oraz specjalistami DevOps, aby dostarczać wydajne i niezawodne rozwiązania wspierające podejmowanie decyzji biznesowych. Twoim zadaniem będzie również optymalizacja istniejących procesów ETL, integracja danych z różnych źródeł oraz zapewnienie wysokiej jakości danych. W naszej firmie stawiamy na innowacje, dlatego oczekujemy, że będziesz aktywnie uczestniczyć w projektowaniu architektury danych, wdrażaniu nowych technologii oraz proponowaniu usprawnień. Praca odbywa się w środowisku Agile, co oznacza częste iteracje, współpracę międzyzespołową i szybkie dostosowywanie się do zmieniających się wymagań. Oferujemy atrakcyjne wynagrodzenie, elastyczne godziny pracy, możliwość pracy zdalnej oraz dostęp do najnowszych technologii i szkoleń. Jeśli jesteś osobą analityczną, lubisz rozwiązywać złożone problemy i chcesz mieć realny wpływ na rozwój produktów opartych na danych – ta rola jest dla Ciebie.

Obowiązki

Text copied to clipboard!
  • Projektowanie i implementacja rozwiązań Big Data
  • Tworzenie i optymalizacja procesów ETL
  • Integracja danych z różnych źródeł
  • Współpraca z zespołami analitycznymi i DevOps
  • Zarządzanie hurtowniami danych i platformami danych
  • Monitorowanie i optymalizacja wydajności systemów
  • Zapewnienie jakości i spójności danych
  • Udział w projektowaniu architektury danych
  • Wdrażanie nowych technologii i narzędzi
  • Tworzenie dokumentacji technicznej

Wymagania

Text copied to clipboard!
  • Wykształcenie wyższe techniczne (informatyka, matematyka, inżynieria)
  • Minimum 3 lata doświadczenia w pracy z technologiami Big Data
  • Znajomość Hadoop, Spark, Kafka
  • Biegłość w Pythonie, Scali lub Javie
  • Doświadczenie z bazami danych NoSQL i relacyjnymi
  • Znajomość narzędzi do orkiestracji danych (np. Airflow)
  • Umiejętność pracy w środowisku Agile
  • Zdolności analityczne i rozwiązywania problemów
  • Dobra znajomość języka angielskiego
  • Umiejętność pracy zespołowej

Potencjalne pytania na rozmowie

Text copied to clipboard!
  • Jakie masz doświadczenie z technologiami Big Data?
  • Z jakimi narzędziami ETL pracowałeś wcześniej?
  • Czy miałeś okazję projektować architekturę danych?
  • Jakie języki programowania znasz i w jakim stopniu?
  • Czy pracowałeś w środowisku Agile?
  • Jakie masz doświadczenie z bazami danych NoSQL?
  • Jak radzisz sobie z optymalizacją wydajności systemów?
  • Czy masz doświadczenie w pracy z chmurą (AWS, GCP, Azure)?
  • Jakie były Twoje największe wyzwania w pracy z danymi?
  • Czy potrafisz pracować samodzielnie i w zespole?